Световни новини без цензура!
OpenAI започва да обучава следващия AI модел, тъй като се бори с опасенията за безопасност
Снимка: ft.com
Financial Times | 2024-05-28 | 14:26:19

OpenAI започва да обучава следващия AI модел, тъй като се бори с опасенията за безопасност

OpenAI съобщи, че е почнал да образова своя програмен продукт за изкуствен интелект от последващо потомство, макар че стартъпът се отхвърли от по-ранни изказвания, че желае да построи „ суперинтелигентни “ системи които са по-умни от хората.

Базираната в Сан Франциско компания съобщи във вторник, че е почнала да създава нова AI система, „ с цел да ни изведе на идващото равнище на благоприятни условия “ и че нейното развиване ще бъде следено от нов комитет за сигурност и сигурност.

Но до момента в който OpenAI се надпреварва с създаването на AI, старши изпълнителен шеф на OpenAI наподобява се отхвърли от предходни мнения на своя основен изпълнителен шеф Сам Алтман, че в последна сметка има за цел да построи „ суперинтелект “, доста по-напреднал от хората.

Анна Маканджу, вицепрезидент по световните въпроси на OpenAI, сподели в изявление за Financial Times, че неговата „ задача “ е да построи неестествен общ разсъдък, кадърен на „ когнитивни задания, които човек може да направи през днешния ден “.

„ Нашата задача е да изградим AGI; Не бих споделил, че нашата задача е да построяваме суперинтелигентност “, сподели Маканджу. „ Свръхинтелигентността е технология, която ще бъде с порядък по-интелигентна от човешките същества на Земята. “

Олтман сподели пред FT през ноември, че е прекарал половината от времето си в изследване „ по какъв начин да се построи суперинтелигентност “.

В същото време като отблъсква конкуренцията от Gemini на Гугъл и стартъпа xAI на Илон Мъск, OpenAI се пробва да увери политиците, че дава приоритет на виновното развиване на ИИ, откакто няколко старши откриватели по сигурността напуснаха този месец.

Новият му комитет ще се управлява от Алтман и шефовете на борда Брет Тейлър, Адам Д’Анджело и Никол Селигман и ще рапортува на останалите трима членове на борда.

Компанията не сподели какво може да направи продължението на GPT-4, което зарежда нейното приложение ChatGPT и получи главно надграждане преди две седмици, или по кое време ще започва.

По-рано този месец OpenAI разпусна своя по този начин наименуван екип за суперподравняване — претрупан да се концентрира върху сигурността на евентуално суперинтелигентни системи — откакто Иля Суцкевер, водач на екипа и съосновател на компанията, напусна. 

Напускането на Суцкевер пристигна месеци откакто той управлява фрапантен прелом против Алтман през ноември, който в последна сметка се оказа несполучлив.

Закриването на екипа за суперподреждане докара до овакантяване на няколко чиновници от компанията, в това число Ян Лейке, различен старши откривател по сигурността на ИИ. 

Makanju акцентира, че работата върху „ дълготрайните благоприятни условия “ на AI към момента се прави „ даже и да са теоретични “.

„ AGI към момента не съществува “, добави Маканджу и сподели, че такава технология няма да бъде пусната, до момента в който не стане безвредна.

John ThornhillScarlett Johansson е прав: AI фирмите би трябвало да бъдат по-прозрачни

Обучението е главната стъпка в метода, по който един модел на изкуствен интелект се учи, черпейки от голям размер данни и информация, която му е дадена. След като усвои данните и продуктивността му се усъвършенства, моделът се валидира и тества, преди да бъде внедрен в артикули или приложения.

Този дълъг и извънредно механически развой значи, че новият модел на OpenAI може да не стане осезателен артикул след доста месеци.

Допълнителен отчет от Madhumita Murgia в Лондон

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!